Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

vGate R2 от Кода Безопасности для защиты VMware vSphere - системные требования для установки продукта.


Продолжаем знакомить вас с продуктом vGate R2 от компании Код Безопасности, который предназначен для защиты виртуальной инфраструктуры VMware vSphere средствами политик безопасности для хост-серверов и виртуальных машин, а также средствами защиты от несанкционированного доступа. Сегодня мы поговорим о системных требованиях продукта. Напомним, что решение vGate R2 состоит из следующих компонентов...


Таги: vGate, Security, Security Code, VMware, vSphere, Hardware

Учет производительности виртуальных хранилищ механизмом Storage DRS в VMware vSphere 5.1.


Не так давно мы писали про то, как работает механизм динамического выравнивания нагрузки на виртуальные хранилища VMware Storage DRS. Напомним, что он работает на базе 2-х параметров хранилищ:

  • Заполненность - в этом случае SDRS выравнивает виртуальные машины для равномерного заполнения хранилищ.
  • Производительность - при использовании этих метрик SDRS старается динамически перенести виртуальные машины с более нагруженных по параметрам ввода-вывода хранилищ на менее загруженные.

Однако бывает так, что несколько виртуальных хранилищ (Datastores) располагаются на одних и тех же RAID-группах, а значит миграция хранилищ виртуальных машин между ними ничего не даст - суммарно бэкэнд-диски системы хранения будут испытывать ту же самую нагрузку.

Например, бесполезна (с точки зрения производительности) будет миграция с Datastore1 на Datastore2:

Раньше этот факт не учитывался механизмом SDRS в vSphere 5.0, что приводило к бесполезным миграциям в автоматическом режиме. Теперь ситуация изменилась к лучшему в версии vSphere 5.1.

Как многие знают, в VMware vSphere есть механизм Storage IO Control (SIOC), который позволяет измерять мгновенную производительность хранилищ (параметр latency - задержка команд ввода-вывода) и регулировать очередь HBA-адаптеров на хостах ESXi. Так вот, одна из техник SIOC Injection позволяет производить тестирование виртуальных хранилищ на наличие корреляции производительности между ними.

Делается это следующим образом: SIOC запускает тестовую рабочую нагрузку на случайно выбранном Datastore1, измеряет latency, а потом отдельно от него запускает нагрузку на другом Datastore2 и также смотрит на latency:

Это нужно для установления базового уровня производительности для этих виртуальных хранилищ. Потом SIOC запускает нагрузку одновременно на 2 этих хранилища и смотрит, что происходит с latency:

Если оба этих хранилища физических расположены на одних и тех же дисковых устройствах (как в нашем случае), то измеряемые latency в данном случае возрастут, что говорит о взаимной корреляции данных хранилищ в плане производительности.

Узнав про этот факт, Storage DRS не будет генерировать рекомендации по перемещению виртуальных машин между хранилищами Datastore1 и Datastore2:

Однако эти рекомендации перестанут генерироваться только на базе производительности, на базе заполненности хранилищ такие рекомендации останутся.


Таги: VMware, vSphere, SDRS, Performance, Storage vMotion, SVMotion, ESXi, Storage

VMware Mobile Knowledge Portal - новое приложение для iPad.


Компания VMware выпустила интересное iPad-приложение (iOS 4.2 и выше) для технических специалистов - VMware Mobile Knowledge Portal. Оно позволяет из одного окна получить доступ к большому количеству документации, лучших практик, видеобзоров, обучающих материалов и прочим документам, которые касаются самых разных продуктов VMware:

На данный момент в приложении VMware Mobile Knowledge Portal есть следующие категории:

Для продуктов есть следующие подкатегории: Evaluation Guide, What's New и Best Practices. Пока маловато и не все они пока заполнены, но, видимо, в скором времени все будет расширяться. Кроме того, в приложении есть возможность подключения собственной библиотеки документов.


Таги: VMware, Mobile, Обучение, vSphere, SRM, VSA

О вложенных виртуальных машинах (Nested VMs) в VMware vSphere 5.1 - отличия от предыдущих версий.


Как мы уже писали, в VMware vSphere 5.1 появилось множество новых возможностей, в том числе улучшения, касающиеся аппаратной виртуализации (Hardware Virtualization), которая позволяет запускать вложенные гипервизоры (Hyper-V и ESXi) и виртуальные машины в них. Про то, как это работает в VMware vSphere 5.0, мы уже детально писали вот тут.

В интерфейсе веб-клиента VMware vSphere 5.1 поддержка аппаратной виртуализации включается в настройках виртуальной машины:

Настройки, которые были действительны для ESXi 5.0 - теперь не работают. Все теперь включается только через эту галочку.

Напомним, что в ESXi 5.0 можно было запускать вложенные (Nested) 32-битные и 64-битные виртуальные машины в гипервизорах, которые сами работают в виртуальных машинах. При этом требовалось только наличие поддержки аппаратной виртуализации в процессорах - Intel VT или AMD-V. Если же в вашем процессоре не было поддержки Intel EPT или AMD RVI, то вложенные 64-битные машины работали очень и очень медленно.

Поэтому VMware в vSphere 5.1 решила изменить концепцию, сделав так:

  • Если в процессоре есть поддержка Intel VT или AMD-V без EPT/RVI, то вы сможете устанавливать ESXi 5.1 в виртуальной машине, а также использовать вложенные 32-битные виртуальные машины. При этом 64-битные работать не будут, а опция "Hardware Virtualization" в vSphere Web Client будет загреена. Во время установки ESXi в виртуальной машине вы увидите сообщение "No Hardware Virtualization Support", которое можно просто игнорировать.
  • Если в процессоре есть поддержка аппаратной виртуализации и EPT/RVI, то можно использовать вложенные 64-битные ВМ.

Проверить свой хост-сервер на наличие поддержки технологий аппаратной виртуализации можно на соответствующих ресурсах вендоров (например, ark.intel.com). Есть и способ попроще - для этого надо использовать Managed Object Browser. Зайдите на хост ESXi по адресу:

https://<имя ESXi>/mob/?moid=ha-host&doPath=capability

Там будет такое свойство nestedHVSupported, которое будет установлено в True, если процессор поддерживает полный набор техник аппаратной виртуализации, который необходим для запуска вложенных 64-битных виртуальных машин на виртуальном ESXi 5.1.


Таги: VMware, vSphere, ESXi, Hardware, Intel, AMD, VMachines, Nested, Blogs

CloudPhysics - карточки с информацией о виртуальной инфаструктуре VMware vSphere.


Достаточно давно, известный многим Duncan Epping писал о стартапе CloudPhysics, для которого он является техническим эдвайзором, и который выпускает продукт в виде виртуального модуля (Observer Virtual Appliance), систематизирующий информацию о количественных параметрах виртуальной среды VMware vSphere в виде карточек. На основе этих карточек можно составить заключение о существующих проблемах своей инфраструктуры виртуализации:

Для работы продукта потребуется установить OVA-модуль в своем окружении VMware vSphere, а дальше для просмотра параметров карточек можно использовать веб-консоль (для кого-то это может быть проблемой, так как данные посылаются на сервер CloudPhysics, однако они утверждают, что данные полностью обезличены).

Сами карточки формируются на базе опросов пользователей и всяческих голосований, которые проводятся, например, на конференциях VMworld. Вот примеры таких карточек:

Затем лучшие карточки, будучи реализованными технически, попадают в основной интерфейс продукта (при этом для появления новых карточек не обязательно обновлять виртуальный модуль в своей инсталляции).

Помимо этого есть всякие технические детали о виртуальной инфраструктуре, корелляции параметров и необычные метрики. В общем, для больших инсталляций в плане траблшутинга - штука интересная, попробуйте, это пока бесплатно.


Таги: VMware, vSphere, Performance, Enterprise, Blogs, Cloud, Virtual Appliance

VMware Storage DRS - задание допустимого уровня over-commitment для хранилища при миграции ВМ на тонких дисках.


Frank Denneman опять написал интересную статью. Оказывается у механизма VMware Storage DRS, который производит балансировку виртуальных машин по хранилищам кластера SDRS, есть механизм задания допустимого уровня over-commitment для хранилища при миграции ВМ на тонких дисках.

Как вы знаете, у тонких VMDK-дисков (Thin Disks) виртуальных машин есть 2 параметра:

  • Provisioned Space - максимальный размер VMDK-файла, до которого может вырости диск виртуальной машины.
  • Allocated Space - текущий размер растущего VMDK-диска.

Разность этих двух парметров есть значение IdleMB, отражающее объем, на который виртуальный диск еще может вырасти. В расширенных настройках Storage DRS можно задать параметр PercentIdleMBinSpaceDemand, который определяет, сколько процентов от IdleMB механизм SDRS прибавляет к Allocated Space при выдаче и применении рекомендаций по размещению виртуальных машин на хранилищах кластера.

Рассмотрим на примере. Пусть максимальный размер диска VMDK составляет 6 ГБ при Allocated Space в 2 ГБ. Допустим мы задали PercentIdleMBinSpaceDemand = 25%. Тогда мы получим такую картину:

Таким образом, при размещении виртуальной машины на хранилище механизм Storage DRS будет считать, что ВМ занимает не 2 ГБ дискового пространства, а 2+0.25*4 = 3 ГБ. Ну и увидев такую машину на 10 ГБ-хранилище, механизм SDRS, при расчете выравнивания хранилищ по заполненности, будет считать что она занимает 3 ГБ, и свободно осталось лишь 7 ГБ.

Регулируя эту настройку можно добиться различных коэффициентов консолидации тонких VMDK-дисков машин на хранилищах. Ну и очевидно, что значение параметра PercentIdleMBinSpaceDemand равное 100% приведет к тому, что тонкие диски при размещении будут учитываться как их обычные flat-собратья.


Таги: VMware, Storage, SDRS, DRS, vSphere, ESXi, Blogs, VMDK

Облачная безопасность VMware vCloud Networking and Security 5.1 - замена VMware vShield.


Когда мы рассказывали новом пакете продуктов VMware vCloud Suite, мы уже упоминали о том, что вместо линейкий продуков VMware vShield, которая поставлялась в дополнение к версии vSphere 5.0, компания VMware выпустила перепакованный продукт VMware vCloud Networking and Security 5.1, который позиционируется как универсальное решение по обеспечению безопасности для платформы vSphere 5.1 и облачной инфраструктуры под управлением vCloud Director.


Таги: VMware, vCNS, Security, vSphere, vCloud, Director, Cloud, vShield, VMsafe, Update

Как вывести список Advanced и Kernel Settings на хосте VMware ESXi 5.1 и другие штуки по esxcli.


В новой версии VMware vSphere 5.1 для хостов ESXi 5.1 в консольном интерфейсе управления esxcli появилось множество нововведений. Во-первых, появилось 82 новых команды esxcli:

  • 7 в категории hardware
  • 2 в категории sched
  • 47 в категории network
  • 15 в категории storage
  • 11 в категории system

Во-вторых, компания VMware выпустила вот такой замечательный постер, из которого можно узнать, как управлять хостом ESXi 5.1 через esxcli:

Теперь через esxcli можно делать операции shutdown, reboot и перевод хоста в maintenance mode.

Например, чтобы узнать, находится ли хост уже в режиме обслуживания нужно выполнить команду:

# esxcli system maintenanceMode get   
Disabled   
#

А чтобы перевести хост в maintenance mode нужно выполнить:

# esxcli system maintenanceMode set -e true -t 0   
#   
# esxcli system maintenanceMode get   
Enabled   
#

Выключить хост ESXi можно так (-d 10 это то же, что и --delay="10", а -r это --reason):

# esxcli system shutdown poweroff -d 10 --reason="Hardware maintenance"

delay здесь задается в секундах.

Перезагрузить можно так:

# esxcli system shutdown reboot -d 10 –r "Patches applied"

Но самое интересное, что теперь появились команды, которые позволяют посмотреть отличия Advanced Settings от дефолтных настроек на хосте ESXi 5.1, что очень полезно при поиске и решении проблем с хост-сервером и его виртуальными машинами. Делается это с помощью команды (-d это то же, что и --delta):

# esxcli system settings advanced list -d

Вывод, например, может быть таким:

Path: /UserVars/SuppressShellWarning
Type: integer
Int Value: 1
Default Int Value: 0
Min Value: 0
Max Value: 1
String Value:
Default String Value:
Valid Characters:
Description: Don’t show warning for enabled local and remote shell access

Здесь мы видим, какое текущее значение расширенной настройки и какое дефолтное (о настройке /UserVars/SuppressShellWarning написано тут). То же самое можно проделать и настройками VMkernel:

# esxcli system settings kernel list -d

Вывод, например, такой:

Name             Type  Description                Configured  Runtime  Default
—————        —    ————————  ———     ——      ——
smallFontForTTY  Bool  Use 50-line font for tty.  true           FALSE     FALSE

Это значит, что была изменена настройка smallFontForTTY.

Ну и, напоследок, интересный документ с примерами использования esxcli - "vSphere Command-Line Interface Concepts and Examples" (для ESXi 5.1).


Таги: VMware, ESXi, CLI, Обучение, Troubleshooting, vSphere

VMware Certified Professional (VCP), VCAP, VCDX и другие обновленные сертификации VMware 2012 года.


Несколько лет назад для специалистов по продуктам компании VMware был доступен только 1 вид профессиональной сертификации - VMware Certified Professional, статус которого подтверждал наличие навыков администрирования платформы VMware Virtual Infrastructure, а позже - vSphere.

Однако со временем продуктов VMware становилось все больше, а платформа VI / vSphere обрастала функционалом, что потребовало введения дополнительных сертификаций. Поэтому сначала появилась высшая сертификация VMware Certified Design Expert (VCDX), которая была и остается одной из самых сложных ИТ-сертификаций на рынке, а потом VMware ввела промежуточное звено - сертификацию VMware Certified Advanced Professional (VCAP), которая давалась в рамках специализаций VCAP Administrator exam (VCAP4-DCA) - для администраторов виртуальной инфраструктуры и VCAP Datacenter exam (VCAP4-DCD) - для архитекторов систем виртуализации.

С этого момента стало очевидно, что нужно вводить специализацию по продктам и технологиям на всех трех уровнях, поскольку охватить в полном объеме продуктовую линейку VMware стало очень сложно. Так появились специализации для трех уровней сертификации (VCP->VCAP->VCDX), которые мы видим сейчас в рамках довольно стройной концепции:

Ссылочно это пока выглядит вот так (не все кирпичики доступны на данный момент):

Cloud

Datacenter Virtualization

End User Computing

Cloud Application Platform

Итак, всего есть следующие 4 вида специализаций, в рамках которых специалист может двигаться по 3 трем уровням сертификации:

  • Cloud - профессионалы в сфере частных и публичных облачных инфраструктур на платформе vSphere под управлением vCloud Director. Базовый уровень VCP - это обучение по соответствующему курсу (облако или инфраструктра в аренду - IaaS) и сдача одного экзамена. Далее, скорее всего, нужно будет сдавать все 3 экзамена VCAP для получения сертификации VCDX - Cloud (ее пока нет).
  • Datacenter Virtualization - это основная линейка по продукту VMware vSphere и прочим средствам виртуализованного ЦОД организации (те самые VCP310, VCP410 и VCP510). Как и раньше, здесь первым сдается экзамен VCP5, а потом экзамены VCAP - по администрированию и дизайну виртуальной инфаструктуры. Пока это единственный способ получить сертификацию VCDX, но скоро добавятся еще Cloud и EUC.
  • End User Computing - линейка сертификаций и обучения, направленная на повышение квалификации специалистов в сфере виртуализации настольных ПК предприятия на базе VMware View и других продуктов, необходимых для доставки приложений конечным пользователям (например, VMware Horizon).
  • Cloud Application Platform - отдельные сертификации для разработчиков на платформе SpringSource, никак не пересекающиеся с инфраструктурными сертификациями.

Изучая все эти моменты сертификации VMware нужно помнить следующие моменты:

  • Любая из сертификаций VCP требует предварительного обучения на платных курсах VMware (их можно пройти очно или по интернету).

  • Любая из сертификаций VCAP требует наличия сертификата VCP, но не требует дополнительных курсов (нужно просто сдать экзамен после соответствующей подготовки, при этом надо понимать, что экзамен сложный).

  • Сертификация VCDX предварительно требует получения всех находящихся под ней сертификаций VCAP. Кроме этого, после их прохождения, нужно разработать свой собственный архитектурный дизайн виртуальной инфраструктуры и план его реализации, а потом защитить его в кругу экспертов - таких же VCDX. Как правило, это происходит на конференции VMworld в Европе или США.

Таги: VMware, VCP, Certification, VCAP, VCDX, Обучение, vSphere, Cloud, Director, Cloud Computing, VDI, View

Список политик безопасности для серверов VMware ESX/ESXi в vGate R2 и рекомендации по их применению.


Многие из вас уже знакомы с сертфицированным средством vGate R2, которое предназначено для защиты виртуальной инфраструктуры VMware vSphere средствами политик безопасности для хост-серверов и виртуальных машин, а также за счет механизма защиты от несанкционированного доступа. Сегодня мы детально рассмотрим существующие в vGate R2 политики безопасности и опишем некоторые рекомендации по их применению.


Таги: vGate, Security, VMware, vSphere, ESX, ESXi, vCenter

Новые возможности VMware vCloud Director 5.1 для создания частных и публичных облачных инфраструктур.


После масштабных анонсов VMworld 2012 мы рассказали о нескольких продуктах VMware, которые претерпели обновления:

Однако мы еще не касались новых возможностей продукта для создания облачых инфраструктур VMware vCloud Director 5.1, который с обновлением поменял цифры версии местами (предыдущая версия Director - 1.5). Итак, что нового в Director 5.1:

Теперь vCloud Director 5.1 поддерживает одноуровневые снапшоты виртуальных машин и виртуальных сервисов vApp:

Появилась поддержка профилей хранилищ и балансировки нагрузки по хранилищам (Storage Profiles и Storage DRS):

Также vCloud Director 5.1 реализует поддержку (читать далее)...


Таги: VMware, vCloud, Director, Update, vSphere, Cloud, Cloud Computing, vCenter

Очередное сравнение VMware vSphere 5.1 с Microsoft Hyper-V 3.0 - последние аргументы VMware.


Мы уже много писали о сравнении платформ виртуализации VMware vSphere с Microsoft Hyper-V в ОС Windows Server. Когда гипервизор Hyper-V был еще второй версии - безусловно, все такие сравнения выигрывала VMware, кроме вот таких - весьма глупых по своей сути.

Однако с выходом Hyper-V 3.0 в Windows Server 2012 ситуация существенно изменилась - по многим возможностям инфраструктура Microsoft Hyper-V + SC VMM 2012 сравнялась с VMware vSphere 5.1, а где-то даже стала превосходить последнюю. VMware было нечем особенно отвечать на такие сравнения - по цене платформа vSphere сейчас однозначно проигрывает продуктам Microsoft (что очень важно для СМБ), поэтому VMware решила сосредоточиться на традиционной сказке: "большинство затрат - операционные, и мы их экономим больше, чем Microsoft".

В итоге, поняв, что надо как-то отбиваться от маркетинговых вбросов Microsoft, весной компания VMware обратилась к известным каталам сферы виртуализации - компании Principled Technologies, которая сваяла в начале года очередной отчет "Total Cost Comparison: VMware vSphere vs. Microsoft Hyper-V", где vSphere 5 сравнивалась с Hyper-V в ключе затрат на администрирование инфраструктуры:

Этот отчет интересен, прежде всего тем, что в нем много внимание уделено различным типам операций в виртуальной инфраструктуре, которые требовали много времени в Hyper-V R2, наример, Quick Storage Migration:

Теперь такого с Hyper-V не провернешь - там есть и горячая миграция хранилищ, и прочие интересные вещи. Однако сам отчет почитать стоит, чтобы понять тот малый объем юзкейсов для СМБ, в котором инфраструктура VMware сэкономит деньги по сравнению с Microsoft.

Теперь обратим взор к свежей презентации "The VMware Advantage Over Hyper-V 3", сделанной 4 сентября этого года.

Посмотрим, что нам там пытается впарить VMware в ответ на это. Много поддерживаемых ОС - это хорошо:

А вот, что касается функционала (кликабельно):

По-сути, Hyper-V 3 обвиняется в двух основных грехах - слабая подсистема безопасности и отсутствие некоторых Enterprise-возможностей для работы с виртуальными машинами и хранилищами, такими как Storage DRS, SIOC, Auto Deploy и Host Profiles - все эти вещи есть только в издании Enterprise Plus, которое в разы дороже соответсвующего количества лицензий SC VMM и других необходимых компонентов System Center для построения виртуальной инфраструктуры на Hyper-V. Кроме того, нужность всех этих вещей для СМБ - под большим вопросом.

Опять идет неубедительный FUD про долгие операции в Hyper-V и быстрые в vSphere:

Ну и традиционное полотно про превосходство добра над злом:

Большинство из того, что здесь написано - это либо субъективное мнение VMware, либо Enterprise-возможности из дорогущего издания Enterprise Plus. Поэтому, это еще один способ убедиться, что VMware работает на Enterprise, не уделяя рынку СМБ должного внимания, в котором Microsoft в ближайшее время может перетянуть очень большое количество клиентов.


Таги: VMware, Microsoft, Сравнение, Comparison, vSphere, Hyper-V, ESXi, SC VMM, TCO, Enterprise, SMB

VMware Distributed Storage и концепция vSAN для построения хранилищ VMware vSphere.


Не так давно мы уже писали о технологии виртуальных томов vVOL, представленной на VMworld 2012, которая позволит дисковым массивам и хостам оперировать с отдельными виртуальными машинами на уровне логического дискового устройства, реализующего их хранилище, что повысит производительность и эффективность операций с ВМ.

Там же, на VMworld 2012, компания VMware представила технологию vSAN, реализующую распределенное хранение данных ВМ на локальных хранилищах хост-серверов VMware ESXi (Distributed Storage):

Концепция vSAN, включающая в себя Distributed Storage, является продолжением существующего подхода к организации общих хранилищ виртуальных машин на базе локальных дисков серверов - VMware vStorage Appliance. Работает это средство обеспечения отказоустойчивости хранилищ за счет полного дублирования хранилищ одного из узлов кластера, а также репликации данных между ними:

Теперь же, в скором времени в гипервизор VMware ESXi будет включена технология Distributed Storage, которая позволит агрегировать вручную или автоматически дисковые емкости (HDD и SSD) хост-серверов в единый пул хранения с функциями отказоустойчивости и кэширования:

Разрабатывается эта концепция на волне распространения SSD-накопителей в серверном оборудовании и СХД. Единый пул хранения кластера Distributed Storage будет не только объединять диски серверов (туда добавляются диски без созданных разделов с определенным администратором вкладом емкости в общий пул) и предоставлять пространство хранения виртуальным машинам на любом из хостов, но и будет управляем средствами политик механизма Policy-Based Storage Management. Интересно то, что размер кластера хранилища для Distributed Storage будет равен размеру кластера хостов (сейчас 32), в рамках которого все хосты имеют возможность использовать агрегированную емкость пула, даже те серверы, что не имеют дисков вовсе.

Все это будет интегрировано с механизмами HA, vMotion и DRS в целях обеспечения отказоустойчивости и балансировки нагрузки на хост-серверы. Кроме этого, агрегированный пул хранилищ будет поддерживать все основные технологии VMware для работы с хранилищами: снапшоты ВМ, связанные клоны, vSphere Replication (vR) и vStorage APIs for Data Protection (vADP).

С точки зрения политик хранения, Distributed Storage будет предоставлять следующие варианты для каждой виртуальной машины:

  • Доступная емкость и объем ее резервирования.
  • Уровень отказоустойчивости (степень дублирования данных на узлах = количество реплик).
  • Уровень производительности (какое количество SSD-кэша выделить для обслуживания реплик, а также число страйпов для диска ВМ, если необходимо).

Данные в кластере VMware Distributed Storage хранятся на локальных дисках узлов по схеме RAID-1, так как это дает максимальный экономический эффект с точки зрения затрат на 1 IOPS при условии комбинирования HDD-хранилищ данных и SSD-хранилищ кэша и данных (подробнее тут). SSD-кэш работает как фронтэнд для HDD-дисков, обрабатывая кэширование чтений и буферизацию записи для операций кластера, при этом сделано множество оптимизаций кэша для увеличения вероятности попаданий в кэш при чтении данных ВМ с дисков различных узлов.

Ну а на практике vSAN уже работает в лабораториях VMware, где инженеры демонстрируют возможности Distributed Storage:

Информации о времени доступности технологии VMware Distributed Storage пока нет. Возможно, базовые функции vSAN будут реализованы в VMware vSphere 6.0.


Таги: VMware, Storage, vSAN, vSphere, ESXi, VSA, SSD, SAN, VMachines, Update

Как обновить бесплатный VMware ESXi 5.0 на ESXi 5.1 - инструкция.


Перед пользователями бесплатного продукта vSphere Hypervisor (ESXi Free), которые используют версию ESXi 5.0, после выхода VMware vSphere 5.1 встала проблема обновления продукта на версию 5.1.

Пошаговая инструкция, как обновить хосты ESXi 5.0 на ESXi 5.1:

1. Скачиваем ESXi 5.1 Offline Bundle с сайта VMware (файл VMware-ESXi-5.1.0-799733-depot.zip). Если вы не авторизованы для загрузки файла, то можно использовать ссылку на загрузку пробной версии vSphere 5.1.

2. Загружаем этот бандл на одно из хранилищ VMware ESXi.

3. Соединяемся с хостом по SSH и выполняем следующую команду:

esxcli software profile install -d <путь к бандлу 799733.zip> -p ESXi-5.1.0-799733-standard

либо эту:

esxcli software profile update -d <путь к бандлу 799733.zip> -p ESXi-5.1.0-799733-standard

Отличия команд в следующем:

  • install - полностью переустановит все пакеты ESXi 5.0 на 5.1 - аналог чистой установки.
  • update - обновит пакеты, относящиеся к ESXi 5.0 на 5.1, но не тронет сторонние пакеты - например, драйверы устройств, которые вы устанавливали самостоятельно.

4. Перезагрузите сервер VMware ESXi.

При включении виртуальной машины, после обновления на ESXi 5.1, вы можете получить сообщение:

This Virtual Machine might have been moved or copied

Это из-за того, что у хоста ESXi 5.1 появился новый UUI. Выбирайте "I moved it". Подробнее тут.

После того, как вы поняли, что хост ESXi 5.1 работает стабильно - время обновить Virtual Hardware и VMware Tools. Если вы не знаете, как это делать, то загляните в KB 1010675.

Если же ваш хост VMware ESXi 5.0 имеет доступ в интернет, то можно обновить сервер на ESXi 5.1 напрямую из репозитория VMware. Для этого:

1. Открываем доступ в сетевом экране ESXi для http-клиента:

esxcli network firewall ruleset set -e true -r httpClient

2. Делаем чистую установку (install) напрямую из хранилища:

esxcli software profile install -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml -p ESXi-5.1.0-799733-standard

или update:

esxcli software profile update -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml -p ESXi-5.1.0-799733-standard


Таги: VMware, ESXi, Upgrade, Бесплатно, Обучение, vSphere

Предоставление доступа к защищенному периметру vGate R2 службам, работающим не под системной учетной записью.


Продолжаем рассказывать о сертифицированном средстве номер 1 - vGate R2, которое предназначено для обеспечения безопасности виртуальной инфраструктуры VMware vSphere средствами политик безопасности и механизма защиты от несанкционированного доступа.

Не так давно мы рассказывали о настройке взаимодействия инфраструктурных серверов с защищенным периметром vGate R2, которая необходима для того, чтобы виртуальные машины и хост-серверы могли работать с сервисами AD и DNS инфраструктуры компании. А сегодня мы покажем, как можно добавить доступ сервиса стороннего приложения, исполняемого на рабочей станции администратора, который работает через vSphere Client.

На компьютере администратора vSphere могут быть службы Windows, работающие не под системной (LocalSystem, LocalService или NetworkService) учетной записью. Чтобы предоставить доступ к защищаемому периметру таким службам, необходимо создать специальную учетную запись vGate-пользователя и связать ее с учетной записью, создаваемой при установке агента аутентификации.

Для предоставления службам доступа к защищаемому периметру:

1. Создайте с помощью утилиты clacl, входящей в комплект поставки vGate R2, специальную учетную запись vGate-пользователя (в примере это "service_xp") на сервере аутентификации. Для этого откройте редактор командной строки и выполните следующую команду:

clacl users add -u service_xp -r -p -n -k admin -s password

где admin и password - имя пользователя и пароль администратора информационной безопасности (администратор vGate R2).

2. Для созданной учетной записи настройте правила доступа к защищаемым серверам (см. тут).

3. Создайте ассоциацию между специальной учетной записью ("service_xp") и записью, созданной агентом аутентификации на компьютере администратора vSphere (с учетной записью "xp") автоматически ("xp$@VGATE", где VGATE — имя сферы сервера авторизации, заданное при установке). Для этого откройте редактор командной строки и выполните следующую команду:

clacl users add-srvc-princ -h xp$@VGATE -p service_xp@VGATE -d S-1-5-21-4110767259-1205561585-4075794586-500 -k admin -s password

где S-1-5-21-4110767259-1205561585-4075794586-500 — SID (Security Identifier) — идентификатор безопасности учетной записи Windows на компьютере администратора vSphere, под которой требуется обеспечить работу службы (в примере это "xp").

В результате выполнения команды будет создана учетная запись "service_xp@VGATE", связанная с идентификатором SID сервиса. Служба аутентификации vGate Client будет автоматически аутентифицировать vGate-пользователя "service_xp@VGATE", поэтому процесс, запущенный под этой учетной записью, сможет проходить в защищаемый периметр в соответствии с настроенными ранее правилами доступа.

Определить SID учетной записи можно при помощи утилиты psgetsid.


Таги: Security Code, vGate, Security, VMware, vSphere

Постер о сетевой инфраструктуре VMware vCloud: VSS, VDS и VXLAN.


Во время проходившей в конце августа конференции VMworld 2012 компания VMware выпустила интересный постер - "VMware vCloud Networking Poster".

Из этого постера можно узнать о том, как работают 3 основных составляющих сетевого взаимодействия виртуальной облачной инфраструктуры VMware:

  • vSphere Standard Switch (VSS) - обычный виртуальный коммутатор на хостах ESXi.
  • vSphere Distributed Switch (VDS) - распределенный виртуальный коммутатор, предоставляющий функции централизованного управления сетевой инфраструктурой через vCenter.
  • Virtual Extensible Local Area Network (VXLAN) - новая технология для облачных инфраструктур, пришедшая на смену VLAN, описанная у нас тут.

На постере приведены различные параметры настройки обычного и распределенного коммутаторов, которые могут оказаться полезными для администраторов, поэтому можно распечатать постер в формате A2+, повесить на стену и обращаться к нему по мере надобности. Он также будет полезен при общении с сетевыми администраторами компании.

Скачать постер VMware vCloud Networking в формате PDF.


Таги: VMware, vCloud, vNetwork, VDS, vSphere, Cloud

Обновленное сравнение функциональных возможностей VMware vSphere 5.1 и инфраструктуры Microsoft Hyper-V 3.0 в Windows Server 2012.


Не так давно мы публиковали наше сравнение функциональных возможностей VMware vSphere 5.0 и инфраструктуры Microsoft Hyper-V 3.0 в Windows Server 2012, из которого можно сделать вывод, что платформа Hyper-V с учетом средства управления System Center Virtual Machine Manager уже близка по возможностям к vSphere, однако стоит существенно дешевле.

В версии VMware vSphere 5.1 компания VMware ввела несколько новых функций в свое решение, а также существенно изменила правила лицензирования и комплектность поставки продукта, что вывело лидирующую на рынке платформу несколько вперед. Однако, достаточно ли этого? Судите сами - "Сравнение функциональных возможностей VMware vSphere 5.1 и инфраструктуры Microsoft Hyper-V 3.0 (Windows Server 2012 + SC VMM 2012)".

Основные улучшения VMware vSphere 5.1, которые увеличивают премущества платформы по сравнению с Hyper-V 3.0:

  • Отмена лицензирования по vRAM - теперь решение vSphere обходится не так дорого для серверов с большим коэффициентом консолидации.
  • Миграция vMotion для виртуальных машин без общего хранилища.
  • vSphere Storage Appliance теперь входит в издания vSphere 5.1 (также доступно и приобретение отдельно).
  • Издание VMware vSphere 5.1 Enterpise Plus позволяет иметь до 64 vCPU виртуальных машин, появилась поддержка SR-IOV, а также технологии VXLAN..
  • Издание VMware vSphere 5.1 Standard приобрело множество возможностей. К ним относятся: механизм резервного копирования vSphere Data Protection (подробнее здесь), "горячее" добавление устройств виртуальной машины Hot Add, фреймворк антивирусной защиты vShield Endpoint, возможность репликации виртуальных машин vSphere Replication, кластеры непрерывной доступности vSphere Fault Tolerance и, главное, механизм "горячей" миграции хранилищ виртуальных машин vSphere Storage vMotion.

Если же вы хотите думать так, как думают сторонники решений Microsoft, то можно почитать сравнение возможностей от "софтверного гиганта" (давно их так не называли, да?) - "Competitive Advantages of Windows Server 2012 Hyper-V over VMware vSphere 5.1".

Как всегда - приветствуются комментарии и правки к нашему документу.


Таги: VMware, Microsoft, Сравнение, vSphere, Hyper-V, Whitepaper, SC VMM, vCenter, ESXi

Network Health Check в VMware vSphere 5.1 - проверка корректности VLAN на физических свичах.


Мы уже писали о новых возможностях плафтормы виртуализации VMware vSphere 5.1, а также о принципах лицензирования продукта. Среди новых функций сетевого взаимодействия в vSphere 5.1 появились возможности Network Health Check, обеспечивающие проверку согласованности параметров на виртуальных распределенных коммутаторах VDS и физических коммутаторах, к которым подключены сетевые адаптеры серверов ESXi.

В рамках Network Health Check отслеживается корректность настройки следующих параметров (с интервалом в 1 минуту) для физических и виртуальных коммутаторов:

  • VLAN
  • MTU
  • Network adapter teaming

Делается это средствами Layer 2 Ethernet probing. Сегодня мы расскажем о том, как выглядит на практике Network Health Check при проверке VLAN, основываясь на материалах блогера Rickard Nobel. Для начала в vSphere Web Client для коммутатора VDS 5.1 зайдем на вкладку "Manage" в раздел "Health check":

Здесь мы видим, что функции Health check включены только для параметров VLAN и MTU. Частая проблема администраторов vSphere заключается в том, что настройки VLAN, сделанные в портгруппах на виртуальном коммутаторе VDS, не совпадают с настройками VLAN на портах физических свичей.

Например, для портгруппы VDS настроен VLAN 200, а сетевой администратор, который настраивал VLAN для портов физических коммутаторов, куда ведут аплинки серверов ESXi, пропустил один из портов физического коммутатора при настройке для пропускания фреймов VLAN 200. Вследствие этого, виртуальные машины могут работать хорошо, однако функции vMotion/DRS могут быть частично недоступны для некоторых из хостов.

Собственно, чтобы вовремя обнаружить такую ошибку, мы и включаем Network Health Check:

Теперь хосты ESXi будут слать броадкасты на все свои адаптеры vmnic, привязанные к VDS, и отслеживать, не дропают ли их порты физических коммутаторов. Эти фреймы будут тэгированы всеми VLAN ID, которые назначены для групп портов VDS. В нашем случе - это VLAN 100 и VLAN 200, которые мы видим в списке портгрупп:

Теперь мы видим новую вкладку "Monitor", где можно отслеживать жизнедеятельность VLAN на хостах. Заходим в подраздел "Health":

Здесь мы видим, что для одного хоста с настройками VLAN что-то не так. Смотрим детали:

Здесь мы видим, что для аплинков vmnic2 и vmnic3 не работает VLAN 200. Теперь неплохо бы в настройках VDS включить поддержку LLDP (режим Both или Advertise), чтобы определить порты физического коммутатора, с которыми связана данная проблема для конкретных аплинков, и не бегать в серверную.

Теперь на физическом коммутаторе смотрим порты, куда включены vmnic2 и vmnic3 командой (в данном случае команды для коммутатора HP):

# show lldp info remote

Мы видим порты свича, куда включены проблемные аплинки хоста. Теперь смотрим, для каких портов настроен VLAN 200 командой:

# show vlan 200

Видим, что VLAN 200 пропускается только на порту A13, а порт A14 не пропускает двухсотый VLAN. Исправляем ситуацию, добавляя VLAN 200 для порта A14, командой:

# vlan 200 tag A14

И выводим снова информацию по VLAN 200:

Теперь оба порта на физическом коммутаторе принимают кадры с VLAN ID 200.

Откроем vSphere Web Client for ESXi 5.1 и посмотрим, в каком состоянии теперь находятся аплинки VDS:

Теперь мы видим, что все корректно настроено, и порты физических коммутаторов пропускают нужные VLAN от обозначенных сетевых адаптеров хостов в портгруппах VDS.


Таги: VMware, vSphere, VDS, Troubleshooting, ESXi, vNetwork, Hardware

Проблемы НЕсовместимости VMware vSphere 5.1 с VMware View и другими продуктами.


После выхода финальной версии платформы виртуализации VMware vSphere 5.1 появились вопросы о том, как обстоят дела с совместимостью продукта с такими популярными решениями, как VMware View и Veeam Backup and Replication, а также другими корпоративными решениями.

Отвечаем вкратце - плохо.

Теперь подробнее. На тему совместимости VMware vSphere 5.1 с VMware View есть статья KB 2035268, где прямо указано, что версия vSphere 5.1 на данный момент не совместима ни с одной из версий решения VMware View (в том числе, последней - 5.1.1, которая была выпущена 16 августа).

Что касается Veeam Backup and Replication (последняя версия - 6.1), то VMware vSphere 5.1 также пока официально не поддерживается для резервного копирования виртуальных машин. Если вы попытаетесь сделать бэкап ВМ на одном из хостов ESXi, то получите следующее сообщение:

Error: Host with uuid 30303734-3536-5a43-4339-343030543957 was not found

Чтобы решить эту проблему, нужно сделать следующее:

1. Нажимаем Help--> License Information --> Licensed Hosts --> Select Host --> Revoke.
2. В vSphere Client создаем пустую ВМ на хосте ESXi, где возникла проблема.
3. Создаем backup job в продукте Veeam Backup and Replication и запускаем эту задачу для резервного копирования ВМ.

После этого задачи РК должны отрабатывать нормально, однако это на данный момент официально неподдерживаемая конфигурация. Нужно ждать версии Veeam Backup and Replication 6.5, которая должна подоспеть в ближайшем будущем.

Какие еще есть проблемы совместимости у VMware vSphere 5.1:

  • У пользователей продукта Synology DSM
  • Проблемы с PowerPath - не обновляйтесь, лекарства пока нет. Об этом написано в KB 2034796. Решить проблему обещают в сентябре.
  • Проблема для Symmetrix Enginuity Microcode (VMAX 5875.x), где тома VMFS не создать из-за аппаратного ускорения массива (описано в Release Notes). На время создания нужно отключить Hardware Acceleration, для чего нужно поменять параметр VMFS3.HardwareAcceleratedLocking в Advanced Settings хост-сервера ESXi.

Знаете еще проблемы? Пишите в каменты.


Таги: VMware, vSphere, Bugs, Bug, Update, ESXi, View, Veeam, Backup

Совместимость vGate R2 с продуктами VMware и другими продуктами Кода Безопасности.


Многие из вас уже знакомы с сертфицированным средством vGate R2, которое предназначено для защиты виртуальной инфраструктуры VMware vSphere средствами политик безопасности для хост-серверов и виртуальных машин, а также средствами защиты от несанкционированного доступа.

Как вы знаете, есть 2 версии продукта vGate R2 - обычная для коммерчеких компаний, и vGate-S R2 - для защиты инфраструктур организаций, работающих с гостайной. Об их отличиях мы уже писали вот тут. Оба этих продукта поддерживают следующие версии платформы виртуализации VMware vSphere:

  • VMware vSphere 4.0
  • VMware vSphere 4.1
  • VMware vSphere 5.0 (подробнее - тут и тут)

Версия vSphere 5.1 продуктом vGate R2 пока не поддерживается, однако скоро ожидается выход версии продукта с ее поддержкой.

Также vGate R2 может быть использован и для защиты инфраструктуры виртуальных ПК VMware View (подробнее - тут) следующих версий:

  • VMware View 4.5
  • VMware View 4.6

Версия VMware View 5.0 будет поддерживаться в ближайшем будущем.

Что касается совместимости с другими продуктами Кода Безопасности для защиты виртуальных и физических сред, vGate R2 поддерживает следующие продукты:

  • Secret Net 5.1
  • Secret Net 6.5 x86
  • Secret Net 6.5 x64
  • TrustAccess 1.2

О совместном применении этих продуктов с vGate R2 мы уже писали тут. Кроме того, средство vGate R2 удобно использовать с электронным замком ПАК "Соболь" для физической защиты хост-серверов ESXi.


Таги: Security Code, Security, vGate, VMware, vSphere, View

Как работает "Shared-Nothing" vMotion (Enhanced vMotion) в VMware vSphere 5.1.


Как знают многие пользователи, среди новых возможностей VMware vSphere 5.1 есть так называемая Enhanced vMotion или "Shared-Nothing" vMotion - функция, позволяющая переместить работающую виртуальную машину на локальном хранилище ESXi на другой хост и хранилище с помощью комбинации техник vMoton и Storage vMotion в одной операции. Это означает, что для такого типа горячей миграции не требуется общее хранилище (Shared Storage), а значит и затрат на его приобретение. Напомним также, что функция Enhanced vMotion включена во все коммерческие издания VMware vSphere, кроме vSphere Essentials.

Давайте посмотрим поближе, как это все работет:

Сначала приведем требования и особенности работы vMotion при отсутствии общего хранилища:

  • Хосты ESXi должны находиться под управлением одного сервера vCenter.
  • Хосты должны находиться в одном контейнере Datacenter.
  • Хосты должны быть в одной Layer 2 подсети (и, если используется распределенный коммутатор, на одном VDS).
  • Enhanced vMotion - это исключительно ручной процесс, то есть функции DRS и Storage DRS не будут использовать миграцию машин без общего хранилища. Это же касается и режима обслуживания хоста (Maintenance Mode).
  • Для одного хоста ESXi может быть проведено не более 2-х Enhanced vMotion единовременно. Таким образом, на хост ESXi может одновременно приходиться максимум 2 штуки Enhanced vMotion и 6 обычных vMotion (всего 8 миграций на хост) + 2 операции Storage vMotion, либо 2 Enhanced vMotion (так как это также задействует Storage vMotion). Подробнее об этом тут.
  • Enhanced vMotion может проводить горячую миграцию одновременно по нескольким сетевым адаптерам хоста ESXi, если они имеются и настроены корректно.

Миграция Enhanced vMotion может быть проведена только через тонкий клиент vSphere Web Client (в обычном клиенте эта функция недоступна - см. комментарии):

Миграция Enhanced vMotion идет по обычной сети vMotion (а не по Storage Network), по ней передаются и диск ВМ, и ее память с регистрами процессора для обеспечения непрерывной работоспособности виртуальной машины во время миграции:

Теперь как это все работает последовательно. Сначала механизм Enhanced vMotion вызывает подсистему Storage vMotion, которая производит копирование данных по сети vMotion. Здесь важны 2 ключевых компонента - bulk copy и mirror mode driver.

Сначала механизм bulk copy начинает копирование блоков данных с максимально возможной скоростью. Во время этого часть блоков на исходном хранилище хоста может измениться - тут и вступает в дело mirror mode driver, который начинает поддерживать данные блоки на исходном и целевом хранилище в синхронном состоянии.

Mirror mode driver во время своей работы игнорирует те блоки исходного хранилища, которые меняются, но еще не были скопированы на целевое хранилище. Чтобы поддерживать максимальную скорость копирования, Mirror mode driver использует специальный буфер, чтобы не использовать отложенную запись блоков.

Когда диски на исходном и целевом хранилище и их изменяющиеся блоки приходят в синхронное состояние, начинается передача данных оперативной памяти и регистров процессора (операция vMotion). Это делается после Storage vMotion, так как страницы памяти меняются с более высокой интенсивностью. После проведения vMotion идет операция мгновенного переключения на целевой хост и хранилище (Switch over). Это делается традиционным способом - когда различия в памяти и регистрах процессора весьма малы, виртуальная машина на мгновение подмораживается, различия допередаются на целевой хост (плюс переброс сетевых соединений), машина размораживается на целевом хосте и продолжает исполнять операции и использовать хранилище с виртуальным диском уже целевого хоста.

Ну а если вы перемещаете виртуальную машину не между локальными дисками хост-серверов, а между общими хранилищами, к которым имеют доступ оба хоста, то миграция дисков ВМ идет уже по Storage Network, как и в случае с обычным Storage vMotion, чтобы ускорить процесс и не создавать нагрузку на процессоры хостов и сеть vMotion. В этом случае (если возможно) будет использоваться и механизм VAAI для передачи нагрузки по копированию блоков на сторону дискового массива.

Картинки и описание процесса взяты у Фрэнка.


Таги: VMware, vMotion, vSphere, Storage vMotion, Storage, ESXi, VMachines, SMB

VMware vSphere 5.1 и другие продукты линейки 5.1 доступны для скачивания.


Компания VMware сделала доступными для скачивания продукты VMware vSphere 5.1, Site Recovery Manager 5.1, vSphere Storage Appliance 5.1 и другие продукты, про новые возможности которых мы уже писали в следующих статьях:

Если вам этого всего недостаточно, то есть бесплатный курс "VMware vSphere: What’s New".

Ну а теперь - ссылки:

Документация:

Напомним, что отмена лицензирования по vRAM для vSphere имеет и обратный эффект - на версию 5.0. То есть, в VMware vSphere 5.0 вы можете использовать столько памяти виртуальных машин, сколько вам нужно, не обращая внимания на алерты (видимо, до выхода соответствующего патча). Версии Essentials и Esssentials Plus нужно будет обновить для отмены ограничения, поскольку там был захардкоженный лимит.


Таги: VMware, vSphere, Update, vCenter, ESXi, SRM, vCloud Director, vShield, VSA, Replication

Новый пакет для автоматизации виртуальной инфраструктуры крупных предприятий - VMware vCloud Suite.


Мы уже писали про новые возможности платформы виртуализации VMware vSphere 5.1, виртуального хранилища vSphere Storage Appliance 5.1 и средства катастрофоустойчивости виртуальной инфраструктуры VMware Site Recovery Manager 5.1, которые были представлены на конференции VMworld 2012. Сегодня мы расскажем еще об одной инициативе VMware для средних и крупных предприятий - решении VMware vCloud Suite, объединяющем перечисленные выше продукты и некоторые другие.

Как мы видим из картинки, VMware vCloud Suite - это, можно сказать, многокомпонентный продукт, лицензируемый на физические процессоры хост-серверов VMware vSphere 5.1 и выше (независимо от числа ВМ), который построен на базе издания Enterprise Plus. Это именно продукт, а не пакет, так как нельзя разделять лицензии различных составляющих на процессоры разных хост-серверов ESXi или виртуальных машин. Каждая из ВМ, работающих в рамках продукта, может использовать любой из его компонентов.

Состав пакета VMware vCloud Suite (основные компоненты):

Из преведенных выше продуктов незнакомым является vCloud Networking and Security (vCNS). Что это? Все просто - это еще один ребрендинг и репакаджинг семейства продуктов VMware vShield:

Что касается изданий VMware vCloud Suite, их 3 штуки: Standard, Advanced и Enterprise (кликабельно):

В издании Enterprise прибавляются еще средства vCenter Configuration Manager и vCenter Chargeback Manager.

Если у вас уже есть VMware vSphere в любом из изданий, то вы можете обновиться до vCloud Suite по специальным парт-номерам:

Если есть не только vSphere, но и, например, SRM - то можно обновиться со скидкой 90% на соответствующий компонент:

Пример преобразования существующих лицензий со скидкой:

Но самое интересное то, что пользователи VMware vSphere Enterprise Plus получают vCloud Suite Standard абсолютно бесплатно до 15 декабря 2012 года. То есть, берете и прямо сейчас получаете лицензии на SRM, vCOPs и другое:

Также до этого времени можно покупать vSphere Enterprise Plus и бесплатно получать лицензии на компоненты vCloud Suite Standard. Так что если есть желание продвинуть свою инфраструктуру - торопитесь.


Таги: VMware, vCloud, Cloud, Update, Licensing, Cloud Computing, Director, SRM, vShield, vSphere, Enteprise, Operations, vFabric

Жесткое ограничение памяти хост-сервера для бесплатного VMware ESXi 5.1 Free (vSphere Hypervisor) - 32 ГБ.


Мы уже писали о возможностях новой версии платформы виртуализации VMware vSphere 5.1 и принципах ее лицензирования, однако не затрагивали важного для пользователей продукта - бесплатного VMware vSphere 5.1 Hypervisor (также известен как VMware ESXi 5.1 Free). Напомним, что в версии vSphere 5.1 компания VMware убрала ограничения по памяти виртуальных машин (vRAM) для всех коммерческих изданий VMware vSphere.

Однако это, по-сути, не касается бесплатной версии ESXi:

Бесплатный продукт VMware vSphere Hypervisor 5.1 (Free ESXi 5.1) имеет жесткое ограничение на физическую память хост-сервера ESXi в 32 ГБ. Если физическая RAM сервера превышает 32 ГБ, то бесплатный ESXi просто не будет загружаться.

При этом бесплатный сервер VMware ESXi 5.1 не ограничен по числу физических процессоров.

Что касается остальных ограничений бесплатного ESXi 5.1:

  • Управление только одним хостом одновременно из vSphere Client (как и раньше)
  • Отсутствие распределенных сервисов виртуализации (vMotion, HA, DRS, Storage DRS, клонирование ВМ и т.д.)
  • API в режиме "только для чтения" (то есть невозможность сохранения изменений конфигурации через vCLI)
  • Отстутсвие  Alarms и поддержки SNMP v3, что есть в коммерческой версии

В самом же гипервизоре ESXi 5.1 (в том числе бесплатном) появились следующие новые возможности:

  • Extended Guest OS and CPU Support - полная поддержка операционных систем Windows Server 2012 и Windows 8, а также новейших процессоров AMD серии "Piledriver" и Intel серий "Ivy Bridge" и "Sandy Bridge".
  • NEW Improved Security - отсутствие необходимости в общем root-аккаунте при работе с ESXi Shell. Подробности приведены в этом документетут).
  • NEW Improved Logging and Auditing - логирование активности пользователя в DCUI и по SSH ведется под его аккаунтом, что упрощает анализ логов.
  • New virtual hardware - версия виртуального аппаратного обеспечения (Virtual Hardware) - 9. Это дает до 8 vCPU виртуальных машин, а также обновление VMware Tools без перезагрузки виртуальной машины. Кроме этого, доступны фукнции расширенной виртуализации CPU на хосте, что дает возможность запускать вложенные гипервизоры и ВМ.
  • Поддержка FC-адаптеров 16 Gbps.
  • Advanced I/O Device Management - новые команды для траблшутинга FC-адаптеров, а также фабрики SAN, что позволит искать проблемы на пути от HBA-адаптера до порта системы хранения.
  • SSD Monitoring - возможность отслеживания характеристик функционирования SSD-накопителей через специальный SMART-плагин.

Таги: VMware, ESXi, Бесплатно, Update, vSphere, Licensing

NetApp сделала доступным виртуальный модуль Data ONTAP Edge для всех желающих.


Партнеры и клиенты компании NetApp знают, что у нее есть виртуальный модуль (Virtual Appliance), который позволяет создавать общие хранилища для виртуальных машин VMware vSphere, называемый NetApp ONTAP Simulator. Это средство может предоставлять доступ виртуальных машин к дисковым ресурсам хост-сервера ESXi по протоколам iSCSI и NFS.

Теперь продукт Data ONTAP Edge доступен для всех желающих, а не только для партнеров и клиентов NetApp:

Основным вариантом использования Data ONTAP Edge компания NetApp видит его применение в удаленных офисах и филиалах организаций, которые не хотят делать больших инвестиций в дорогостоящие системы хранения данных.

Максимально поддерживаемый объем локальных хранилищ хост-серверов ESXi теперь составляет 5 ТБ вместо 20 ГБ в предыдущих версиях продукта. ONTAP Edge работает на платформе ONTAP 8.1.1 (ОС Data ONTAP-v) и требует не менее 2 vCPU для ВМ с виртуальным модулем, 4 ГБ памяти и не менее 57.5 ГБ дискового пространства. В решении поддерживается следующая функциональность, присущая оборудованию NetApp:

  • Snapshots
  • Replication
  • Deduplication
  • SnapVault
  • SnapMirror
  • SnapRestore
  • FlexClone
  • Поддержка программных интерфейсов VMware: VAAI, VACI и VADP
  • Возможность интеграции с VMware SRM

В виртуальном модуле Data ONTAP Edge отсутствует следующая функциональность систем NetApp (некоторое пока):

  • Поддержка LUN Fibre Channel и FCoE
  • Data Compression
  • RLM (Remote LAN Module)
  • CFE, BIOS, shelf FW
  • Multipathing
  • Кластеризация виртуальных модулей хранилищ (CFO/SFO)

Поскольку данное решение не обладает функциями высокой доступности, то его пока можно использовать для тестирования и ознакомления с функциональностью продуктов NetApp. Можно также рассмотреть вариант его совместного использования с продуктами VMware VSA или StarWind iSCSI SAN, которые предоставляют функции высокой надежности и непрерывной доступности хранилищ.

Для установки Data ONTAP Edge потребуется следующая аппаратная конфигурация сервера ESXi:

  • Минимум 1 процессор Quad core или 2 Dual core (64-bit Intel x86) 2.27 ГГц или быстрее
  • 4 и более ГБ памяти (рекомендуется 8 ГБ и больше)
  • 4 или более локальных дисков на сервере
  • Сетевая карточка Gigabit Ethernet
  • Аппаратный RAID с поддержкой энергонезависимого write cache

Важный момент, что для работы с виртуальным модулем NetApp не поддерживаются функции управления питанием хостов ESXi. Соответственно политику управления питанием на хосте нужно выставить как "High performance" или убедиться, что она определяется как "Not Supported".

Скачать пробную версию продукта NetApp Data ONTAP Edge на 90 дней можно по этой ссылке. Вам потребуется зарегистрироваться и ввести e-mail адрес не с публичным, а с корпоративным доменом. О том, как работать с виртуальным модулем, написано вот тут.


Таги: NetApp, Edge, VMware, vSphere, Storage, ESXi, Hardware, NFS, iSCSI

Надежное удаление дисков виртуальных машин VMware vSphere с помощью vGate R2.


Мы уже немало писали о сертифицированном ФСТЭК продукте vGate R2 от компании Код Безопасности, который позволяет защитить виртуальную инфраструктуру VMware vSphere 5 с помощью политик безопасности, а также средствами защиты от несанкционированного доступа.

Одной из таких политик для хост-серверов ESXi в vGate R2 является политика безопасного удаления виртуальных машин, что подразумевает очистку виртуальных дисков VMDK на системе хранения при их удалении с тома VMFS. Это позволяет убедиться в том, что конфиденциальные данные, находившиеся на диске, будут недоступны для восстановления потенциальным злоумышленником, который, например, может находиться внутри компании и иметь доступ к содержимому томов VMFS через систему хранения данных или средства управления виртуальной инфраструктурой VMware vSphere.

Для выполнения операции надежного удаления ВМ администратор должен иметь доступ к ESXi-серверу (а именно к TCP-портам 902, 903, 443), на котором выполняется удаляемая ВМ, а также иметь привилегию "разрешено скачивать файлы виртуальных машин".

Если для удаляемой ВМ задана соответствующая политика безопасности, очистка дисков виртуальных машин выполняется автоматически. Если политика не задана, для этого может использоваться специальная утилита командной строки vmdktool.exe. Утилита также может быть полезна в том случае, если была удалена не ВМ полностью, а только какой-то ее диск.

Перед очисткой диска ВМ необходимо убедиться в отсутствии у виртуальной машины снапшотов, после чего необходимо остановить ВМ.

Далее выполняем следующую команду:

>vmdktool.exe –s esx1.local –u root –p password –v "[storage1] vm4/vm4.vmx" –d "[storage1] vm1/vm1.vmdk" –t 55

Более подробно об утилите vmdktool можно прочитать в документации по vGate R2.


Таги: vGate, Security, VMachines, VMware, vSphere, ESXi, VMDK, Storage, Security Code

Новый спонсор VM Guru - облачный сервис-провайдер ИТ-ГРАД.


Коллектив VM Guru с радостью представляет вам нового стратегического спонсора ресурса - компанию ИТ-ГРАД.

Основное направление деятельности сервис-провайдера ИТ-ГРАД – предоставление облачных услуг корпоративному сектору. Компания ИТ-ГРАД первой в России в 2009 году получила статус VMware Service Provider, который дал ей право предоставлять в аренду виртуальную инфраструктуру на базе технологий VMware – лидера в области виртуализации. По модели IaaS ИТ-ГРАД предлагает в аренду виртуальную инфраструктуру – гибкое решение для создания собственного парка виртуальных серверов (виртуального дата-центра).

Виртуальный дата-центр (vDC) является полностью изолированной и автономной инфраструктурой, позволяющей клиенту самостоятельно создавать и клонировать виртуальные машины, изменять их конфигурацию, управлять конфигурацией сети, публиковать приложения в интернет (используя персональный программный файервол). Виртуальный дата-центр характеризуется следующими параметрами:

  • CPU – вычислительные мощности процессора (GHz)
  • Memory – оперативная память (GB)
  • Storage – дисковое пространство (GB)
  • Network – сети (количество сетей и внешних IP адресов)
  • VMs – максимальное число виртуальных машин внутри vDC.

Став клиентом ИТ-ГРАД, вы становитесь владельцем собственного виртуального центра обработки данных. Вы имеете возможность делать все необходимые операции, а именно:

  • Самостоятельно создавать виртуальные серверы, когда они требуются.
  • Изменять конфигурации уже существующих серверов за несколько минут, причем часть операций даже без остановки и перезагрузки сервера (для некоторых операционных систем).
  • Включать, выключать, устанавливать ОС и приложения без участия специалистов ИТ-ГРАД. Данные операции Вы можете делать удаленно, не требуется какого-либо физического присутствия рядом с сервером.
  • Делать резервные копии и сохранять состояния работающих серверов. Данные операции производятся очень быстро, просто и удобно - по аналогии работы с файлами – копирование, удаление, перемещение.
  • Платить только за фактическое потребление! Нет необходимости переплачивать за простаивающие ресурсы.

Решения ИТ-ГРАД строятся на базе лидирующих в отрасли программных продуктов, таких как VMware vSphere, vCloud Director, vShield и т.п., а в качестве технической инфраструктуры используется новейшее оборудование лидирующих вендоров (HP+Cisco+NetApp).

Вы можете оставить заявку на расчет стоимости аренды виртуальных машин VMware, а также обратиться по адресу sales2010@it-grad.ru для запроса тестового доступа к инфраструктуре ИТ-ГРАД.


Таги: VMware, IAAS, IT-Grad, VSPP, VMachines, vSphere, vCloud Director, Cloud, Cloud Computing

Как VMware продолжает менять подход к ИТ-инфраструктуре: концепция vVOL для хранилищ виртуальных машин vSphere.


В большой виртуальной инфраструктуре присутствуют сотни хранилищ VMFS, созданных поверх LUN, где лежат виртуальные машины с различным уровнем требуемого сервиса и политик. Проблемы начинаются с того, что система хранения не знает о том, что на ее LUN находятся виртуальные машины. Например, синхронная репликация на уровне массива может делаться только на уровне LUN, хотя с данного тома VMFS требуется реплицировать не все ВМ, которые могут быть с различным уровнем критичности. То же самое касается снапшотов и снапклонов уровня массива...


Таги: VMware, Storage, VVOL, vSphere, ESXi, vStorage, VMachines, Hardware

VMware vSphere Storage Appliance 5.1 - новые возможности и лицензирование.


Одновременно с анонсом новой версии платформы VMware vSphere 5.1 компания VMware объявила об обновлении средства VMware vSphere Storage Appliance 5.1 (VSA), которое позвляет организовать общее отказоустойчивое хранилище для виртуальных машин на базе локальных дисков хост-серверов VMware ESXi с использованием двух или трех узлов. О новых возможностях VSA предыдущей версии (1.0) мы уже писали вот тут, а сегодня расскажем о новых возможностях и лицензировании версии 5.1.

Итак, что нового появилось в VMware vSphere Storage Appliance 5.1:

Максимально поддерживаемые характеристики локальных хранилищ серверов ESXi теперь таковы:

3 ТБ диски

  • 8 дисков до 3 ТБ каждый в конфигурации RAID 6 (без hot spare)
  • 18 ТБ полезной емкости под тома VMFS-5 на 1 хост
  • 27 ТБ полезной емкости на 3 хоста

2 ТБ диски

  • 12 локальных дисков до 2 ТБ в конфигурации RAID 6 (без hot spare)
  • 16 внешних дисков до 2 ТБ в RAID 6 (вместе с hot spare)
  • VMware поддерживает максимальный размер тома VMFS-5 size до 24 ТБ на хост в VSA 5.1
  • 36 ТБ полезной емкости на 3 хоста

Ранее, в VSA 1.0, установка vCenter не поддерживалась на хранилищах узлов, входящих в VSA-кластер. Теперь можно устанавливать vCenter на одно из локальных хранилищ серверов, не входящее в общее пространство VSA. В этом случае, при создании общей емкости VSA можно выставить размер общего пространства, оставив нужное место на локальном VMFS под vCenter:

Эта же возможность относится и к установке VSA на существующих хостах ESXi, где на локальных дисках уже есть виртуальные машины. Администратор сначала создает общее пространство VSA на хостах кластера, а потом с помощью Cold Migration переносит в общий том VMFS эти виртуальные машины. Освободившееся место можно присоединить к пространству VSA за счет функции увеличения емкости.

Емкость хранилищ VSA может быть увеличена на лету за счет добавления новых дисков. Можно добавить новый Extent к тому VMFS, а можно пересоздать RAID и сихнронизировать его с другим узлом кластера:

Также теперь с одного сервера vCenter можно управлять сразу несколькими кластерами VMware VSA, каждый из которых состоит из двух или трех узлов. Таких кластеров может быть до 150 штук для одного vCenter. Это хорошо подходит для организаций, имеющих распределенную инфраструктуру филиалов, где, как известно, денег на покупку общих систем хранения обычно нет (ROBO-сценарии).

Модуль VMware VSA 5.1 можно использовать для различных сценариев и всех изданий VMware vSphere 5, кроме самого низшего - Essentials:

Возможности продукта для всех изданий полностью идентичны, кроме того, что VSA for Essentials Plus не может управлять несколькими кластерами VSA, поскольку очевидно, что нужна лицензия vCenter Standard. Если же VSA 5.1 используется для Essentials Plus в конфигурации ROBO (то есть, несколько сайтов, объединенных единой точкой управления) - то так делать можно.

Кстати о лицензии на vCenter Standard - раньше для пользователей Essentials Plus она временно требовалась, когда вы заменяли один из узлов кластера. Теперь такой необходимости нет.

На эту тему можно также почитать документ "What's New in VMware vSphere Storage Appliance 5.1".


Таги: VMware, VSA, Update, Storage, vSphere, ESXi, vCenter, HA

Финальная версия StarWind iSCSi SAN 6.0 - трехузловые отказоустойчивые кластеры хранилищ и резервное копирование ВМ.


В конце прошлой недели компания StarWind Software объявила о выпуске своего флагманского продукта StarWind iSCSi SAN 6.0, предназначенного для создания двух- или треузловых отказоустойчивых кластеров хранилищ для VMware vSphere и Hyper-V.

Новые возможности StarWind iSCSI SAN 6.0:

  • Возможность создания треузловых кластеров хранищ, что позволяет повысить уровень отказоустойчивости, производительности и надежности, а также более эффективно использовать дисковое пространство (RAID0 вместо RAID6). При этом все три узла являются активными и на них идет запись. По трем каналам синхронизации данные хранилищ синхронизируются между собой. Также все узлы обмениваются друг с другом сигналами доступности (Heartbeat).
  • Репликация на удаленный iSCSI Target через WAN-соединение с поддержкой дедупликации в конфигурации резервирования N+1. Об этом мы подробно писали тут.
  • Асинхронная репликация для дедуплицированных хранилищ. Любой iSCSI target может быть использован как хранилище назначения для репликации.
  • Поддержка Scale-Out File Servers в Windows Server 2012. Подробнее об этом здесь.
  • Поддержка механизмом дедупликации данных, которые удаляются с хранилищ - неиспользуемые блоки перезаписываются актуальными данными.
  • Использование памяти механизмом дедупликации сократилось на 30%. Теперь необходимо 2 МБ памяти на 1 ГБ дедуплицируемого хранилища при использовании блока дедупликациии 4 КБ.
  • Улучшенное управление HA-устройствами. Теперь можно добавить новый узел кластера StarWind к HA-устройству, удалить узел или переключиться между ними без необходимости заново пересоздавать HA Device.
  • HA-устройство может использовать другие типы устройств StarWind для хранения данных. Это может быть дедуплицированный диск, "тонкое" устройство IBV или устройство типа DiskBridge.
  • Возможность загрузки бездисковых серверов по iSCSI для хранилищ StarWind. Подробно процедура настройки этой функции описана в документе "StarWind iSCSI Boot".
  • Улучшенное резервное копирование для виртуальных машин VMware ESX/ESXi.
  • StarWind SMI-S agent, доступный для загрузки как отдельный компонент. Он позволяет интегрировать StarWind в инфраструктуру Systme Center Virtual Machine Manager (SC VMM), добавив StarWind Storage Provider, реализующий задачи управления таргетами и хранилищами.
  • Появилась полноценная поддержка механизма ALUA, работа с которым идет через SATP-плагин VMW_SATP_ALUA (подробнее об этом тут).
  • Некоторые дополнительные возможности для резервного копирования виртуальных машин на Hyper-V.
  • Новый GUI для управления процессом резервного копирования (интегрирован в Management Console).
  • Упрощенный процесс подключения серверов Hyper-V и ESXi.

Ну и главное, что в релизной версии появился VMware Backup Plugin для резервного копирования виртуальных машин VMware vSphere (он приобретается отдельно как дополнение).

Более подробно о новых возможностях StarWind iSCSI SAN 6.0 можно узнать на странице продукта. Сравнение изданий доступно тут, а сделать запрос на приобретение решения можно здесь.


Таги: StarWind, iSCSI, Update, SAN, Storage, Backup, VMware, vSphere, Microsoft, Hyper-V

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge